"Məhz öz coğrafi mövqeyimizə görə biz bütün rabitə vasitələrini inkişaf etdirmək və qlobal informasiya sistemi yaradılmasında irəliləyişi təmin etmək üçün misilsiz imkanlara malikik"

Heydər Əliyev

"İnsanların işləməsi, fəaliyyət göstərməsi, dövlət orqanlarının, ayrı-ayrı özəl qurumların, hər bir təşkilatın səmərəli işləməsi üçün rabitə indi çox mühüm bir vasitədir"

Heydər Əliyev

"Rabitəçilərin vəzifəsi bütün rabitə növlərinin, xüsusən telefon rabitəsinin iş keyfiyətini daha da yüksəltməkdən, əhalinin ehtiyac və tələbatına daha çox fikir verməkdən ibarətdir"

Heydər Əliyev

"Son illər Azərbaycanda rabitənin inkişafı sürətlə gedir və aparılan işlər, əldə olunan nəticələr təqdirəlayiqdir"

Heydər Əliyev

"İndiki zamanda rabitə hər bir insan üçün ən çox lazım olan bir vasitədir"

Heydər Əliyev

Süni zəkanın düşüncə prosesini izləməyə imkan verən üsul hazırlanıb

Süni zəka sahəsində lider olan Anthropic, Google, OpenAI və xAI şirkətləri “düşüncə zənciri” (chains of thought) adlanan bir üsul hazırlayıblar. Bu üsul süni zəka modellərinin sorğuya cavab yaradarkən düşünmə prosesini addım-addım izləməyə imkan verir. Neyron şəbəkələrin təkmilləşdirilməsi ilə bağlı bir sıra dəyərli ideyalarla yanaşı, bu üsul modellərin “səhv davranış” nümunələrini də ortaya qoyub. Belə hallarda modelin yekun cavabı onun məntiqi düşüncə ardıcıllığına heç uyğun gəlmir. Bu isə onu göstərir ki, tərtibatçılar hələ də süni zəkanın cavabları necə formalaşdırdığını dəqiq anlamırlar. Araşdırmanın nəticələri sübut edir ki, getdikcə daha güclü və müstəqil hala gələn süni zəka sistemlərinin nəzarətdən çıxma riski realdır. Hətta dünyanın aparıcı süni zəka laboratoriyaları belə generativ modellərin necə nəticəyə gəldiklərini tam olaraq dərk etmirlər.

Anthropic bir müddət əvvəl böyük dil modellərinin (LLM) davranışı ilə bağlı tədqiqat nəticələrini dərc etdi. Simulyasiya edilmiş ssenarilərdə bu yeni, inkişaf etmiş modellər təhlükəsizlik tədbələrini aşmağa çalışıb, aldatma və şantajdan istifadə edib, korporativ sirləri oğurlamağa cəhd göstərib və hətta deaktiv olunma təhlükəsi yarananda operatoru aradan qaldırmağa hazır olduqlarını nümayiş etdiriblər. "Düşüncə zənciri" üsulunun köməyi ilə süni zəka tərtibatçıları böyük dil modellərinin bütün düşüncə prosesini görə bilirlər. Bu isə onlara imkan verir ki, zəruri anda müdaxilə edib modeli əlavə təlimlə inkişaf etdirsinlər və gələcəkdə daha keyfiyyətli və adekvat cavablar əldə etsinlər. “Son araşdırmamızda aşkar etdik ki, bu düşüncə zəncirlərini oxumaq və modelin səhv davranışına dair sübutlar tapmaq mümkündür. Bu da bizə göstərir ki, model harada və niyə düzgün işləməyib” - deyə OpenAI-nin tədqiqatçısı Bowen Baker bildirib.

O, əlavə xərclər tələb etmədən izah oluna bilən nəticələr verir. Bu, üsulun ən gözəl xüsusiyyətlərindən biridir. Biz bu modelləri interpretasiya edilə bilən etmək üçün yox, mürəkkəb məsələləri həll edə bilən ən yaxşı düşünmə qabiliyyətinə malik modellər yaratmaq məqsədilə təlimləndirmişik” - deyə o, əlavə edib. OpenAI mühəndisləri həmçinin belə nəticəyə gəliblər ki, LLM-lərin düşüncə zəncirinin təhlili, sadəcə yekun nəticələrin yoxlanılmasından daha effektiv şəkildə yanlış davranışları üzə çıxara bilir. Lakin şirkətin apardığı testlər göstərib ki, əgər bu düşüncə zəncirinə müdaxilə edilərək düzəliş aparılarsa, model öz arzuolunmaz davranışını istifadəçidən gizlədə bilər, lakin həmin davranışı davam etdirməyə davam edər. Məsələn, proqram mühəndisliyi üzrə testdə model qadağan olunmuş məlumat bazasından məlumat çıxararaq istifadəçini aldatmağa çalışa bilər.